home *** CD-ROM | disk | FTP | other *** search
/ Hacker's Secrets 4 / Hacker's Secrets 4.iso / faq / comp2038.txt < prev    next >
Text File  |  1997-01-06  |  63KB  |  1,153 lines

  1. Subject: Computer Security Evaluation FAQ, Version 2.1
  2. Supersedes: <computer-security/evaluations_848196893@rtfm.mit.edu>
  3. Date: 17 Dec 1996 06:37:41 GMT
  4. X-Last-Updated: 1996/08/13
  5.  
  6. Posting-Frequency: monthly
  7.  
  8. The Computer Security Evaluation Frequently Answered Questions (V2.1)
  9.  
  10. This FAQ is designed to answer common questions about the evaluation of
  11. trusted products.  It is being posted to comp.security.misc
  12. comp.security.unix, comp.answers and news.answers.  We have attempted to be as
  13. clear, precise, accurate, and correct as possible.  Some answers are
  14. undoubtedly closer to this ideal than others.  Comments on the FAQ may be sent
  15. to TPEP@dockmaster.ncsc.mil.  The current official version of this FAQ may be
  16. found at <http://www.radium.ncsc.mil/tpep/process/faq.html>.
  17.  
  18. ----------
  19.  
  20. Subject: Contents
  21.  
  22. Section I: The Trusted Product Evaluation Program (TPEP)
  23.   1. What is the National Computer Security Center (NCSC)?
  24.   2. What is TPEP?
  25.   3. How is TPEP related to the National Security Agency (NSA)?
  26.   4. How is TPEP related to the National Institute of Standards
  27.      and Technology (NIST)?
  28.   5. How do I contact the TPEP?
  29.   6. What is the TTAP?
  30.   7. What is Dockmaster?
  31.   8. Why doesn't TPEP have a WWW server on Dockmaster?
  32. Section II: Criteria
  33.   1. What is the criteria used for evaluation?
  34.   2. What is the TCSEC?
  35.   3. What is the Orange Book?
  36.   4. What are interpretations?
  37.   5. What is the Interpreted TCSEC (ITCSEC)?
  38.   6. What is the ITSEC (as opposed to the ITCSEC)?
  39.   7. What is the CTCPEC?
  40.   8. What is the Common Criteria?
  41.   9. What is the TNI?
  42.  10. What is the TDI?
  43.  11. What is the Rainbow Series?
  44.  12. What are Process Action Team (PAT) Guidance Working Group (PGWG)
  45.      documents?
  46.  13. Is there a criteria for commercial (as opposed to military) systems?
  47.  14. What is the Federal Criteria?
  48.  15. What are the CMWREQs and the CMWEC?
  49. Section III: Criteria Concepts
  50.   1. What are security features?
  51.   2. What is assurance?
  52.   3. What is a division?
  53.   4. What is a class?
  54.   5. What is a network component?
  55.   6. What is a Network Security Architecture Design (NSAD) document?
  56.   7. How do I interpret a rating?
  57.   8. The TCSEC is 10 years old, doesn't that mean it's outdated?
  58.   9. How do the TCSEC and its interpretations apply to routers and
  59.      firewalls?
  60.  10. Does a trusted system require custom hardware?
  61.  11. What are the requirements for a D/C1/C2/B1/B2/B3/A1 system?
  62. Section IV: Evaluations
  63.   1. How do I get my product evaluated?
  64.   2. What is the evaluation process?
  65.   3. How long does an evaluation take?
  66.   4. How much does an evaluation cost?
  67.   5. How do I find out about the evaluation process?
  68.   6. Who actually performs the evaluations?
  69.   7. What information is released about an evaluated product?
  70.   8. What is RAMP?
  71. Section V: Evaluated Products
  72.   1. Should I buy an evaluated product?
  73.   2. Does NSA buy/use evaluated products?
  74.   3. How do I know if a product is evaluated?
  75.   4. What does it mean for a product to be "in evaluation"?
  76.   5. What does it mean for a product to be "compliant" with the TCSEC?
  77.   6. What and where is the Evaluated Products List (EPL)?
  78.   7. How do I get a copy of an evaluation report?
  79.   8. Is an evaluated product "hacker proof?"
  80.   9. What is the rating of DOS?
  81.  10. What is the rating of UNIX?
  82.  11. What should I do if evaluated Product X appears to fail a requirement?
  83.  12. Why should I buy a B2/B3/A1 product over a C2/B1 product?
  84.  13. Is there an approved program to declassify my hard drive?
  85.  
  86. ----------
  87.  
  88. Subject: Section I: The Trusted Product Evaluation Program (TPEP)
  89.  
  90.   1. What is the National Computer Security Center (NCSC)?
  91.  
  92.           The Department of Defense Computer Security Center was
  93.           established in 1981 to encourage the widespread availability of
  94.           trusted computer systems for use by facilities processing
  95.           classified or other sensitive information.  In August 1985 the
  96.           name of the organization was changed to the National Computer
  97.           Security Center (NCSC).  The NCSC may be reached at:
  98.  
  99.               National Computer Security Center
  100.               9800 SAVAGE ROAD
  101.               FT MEADE MD 20755-6000
  102.  
  103.           or by phone at (410) 859-4376.
  104.  
  105.   2. What is TPEP?
  106.  
  107.           The Trusted Product Evaluation Program (TPEP) is the program by
  108.           which the NCSC evaluates computer systems against security
  109.           criteria.  The Trusted Product Evaluation Program (TPEP) is
  110.           operated by an organization separate from the National Computer
  111.           Security Center (NCSC).  The TPEP performs computer security
  112.           evaluations for, and on behalf of, the NCSC.
  113.  
  114.   3. How is TPEP related to the National Security Agency (NSA)?
  115.  
  116.           Both the Trusted Product Evaluation Program (TPEP) and the
  117.           National Computer Security Center (NCSC) are organizational
  118.           units within the National Security Agency (NSA).  The TPEP and
  119.           NCSC are two of a number of organizational units within the NSA
  120.           responsible for the information system security mission with
  121.           respect to classified and sensitive data (see
  122.           <http://www.nsa.gov:8080/>).
  123.  
  124.   4. How is TPEP related to the National Institute of Standards
  125.      and Technology (NIST)?
  126.  
  127.           In Public Law 100-235 congress directed the National Security
  128.           Agency (NSA), of which the Trusted Product Evaluation Program
  129.           (TPEP) is a part, to lead the efforts of the United States
  130.           Government in information systems security for classified
  131.           information.  The National Institute of Standards and Technology
  132.           (NIST) as part of the Department of Commerce is directed to
  133.           lead the efforts for sensitive but unclassified information
  134.           with technical support from the NSA.  The NSA and NIST have
  135.           established a Memorandum of Understanding detailing the
  136.           responsibilities of each organization with respect to the other
  137.           in this area.  While NSA and NIST each have individual efforts,
  138.           the agencies attempt to develop methods and standards that are
  139.           compatible.  (see <http://csrc.ncsl.nist.gov/>)
  140.           
  141.   5. How do I contact the TPEP?
  142.  
  143.           The Trusted Product Evaluation Program can be reached by mail at
  144.  
  145.              V24, TRUSTED PRODUCT EVALUATION PROGRAM
  146.              NATIONAL SECURITY AGENCY
  147.              9800 SAVAGE ROAD STE 6753
  148.              FT MEAD MD 20755-6753
  149.           
  150.           or by phone at (410) 859-4458.
  151.           
  152.   6. What is the TTAP?
  153.  
  154.           The Trust Technology Assessment Program (TTAP) is a joint
  155.           National Security Agency (NSA) and National Institute of
  156.           Standards and Technology (NIST) effort to commercialize the
  157.           evaluation of commercial-off-the-shelf (COTS) products at the
  158.           lower levels of trust.  Under the auspice of the National
  159.           Voluntary Laboratory Accreditation Program (NVLAP), TTAP will
  160.           establish, accredit and oversee commercial evaluation
  161.           laboratories focusing initially on products with features and
  162.           assurances characterized by the Trusted Computer System
  163.           Evaluation Criteria (TCSEC) B1 and lower levels of trust
  164.           (see Section II, Question 2 and Section III, Question 4).
  165.           Vendors desiring a level of trust evaluation will contract with
  166.           an accredited laboratory and pay a fee for their product's
  167.           evaluation. (see <http://csrc.ncsl.nist.gov/ttap/>)
  168.  
  169.           TTAP approval and oversight mechanisms will assure continued
  170.           quality and fairness.  Using the NVLAP model of standardized
  171.           testing and analysis procedures, TTAP will strive to achieve
  172.           mutual recognition of evaluations with other nations.  The
  173.           European Community evaluations are performed under the purview
  174.           of national test standardization bodies associated with NVLAP.
  175.  
  176.           The TTAP is being established with a planned transition from
  177.           TCSEC based evaluations to Common Criteria based evaluations
  178.           (see Section II, Question 8).  The implementation of the Common
  179.           Criteria will occur upon acceptance of the Common Criteria and
  180.           the Common Evaluation Methodology, which is in the process of
  181.           being developed.
  182.  
  183.   7. What is Dockmaster?
  184.  
  185.           Dockmaster, or more precisely dockmaster.ncsc.mil, is an
  186.           unclassified computer system used by the Trusted Product
  187.           Evaluation Program (TPEP) to exchange information between
  188.           product evaluators, vendors, and others within the computer
  189.           system security community.  Dockmaster is based on the
  190.           B2-evaluated Honeywell MULTICS product.  This is a very old
  191.           platform, and efforts are underway to replace Dockmaster with a
  192.           more current product.  In addition to use by the TPEP and the
  193.           NCSC, dockmaster provides service to the information security
  194.           community through electronic mail, bulletin boards, and forums
  195.           for the exchange of ideas.  Online access to the INFOSEC Product
  196.           and Services Catalogue is available.  Information is provided
  197.           about training courses and scheduled INFOSEC conferences.
  198.  
  199.           To register for an account, write to:
  200.  
  201.               Attn: Dockmaster Accounts Administrator
  202.               National Computer Security Center
  203.               9800 SAVAGE ROAD
  204.               FT MEADE MD 20755-6000
  205.  
  206.   8. Why doesn't TPEP have a WWW server on Dockmaster?
  207.  
  208.           Many desirable network access features are not available in the
  209.           MULTICS operating system used by Dockmaster.  As the system is
  210.           upgraded, it is anticipated that it will support some of these
  211.           features.  The TPEP WWW server is available at
  212.           <http://www.radium.ncsc.mil/tpep/>.
  213.           
  214. ----------
  215.  
  216. Subject: Section II: Criteria
  217.  
  218.   1. What is the criteria used for evaluation?
  219.  
  220.           The criteria currently used by the Trusted Product Evaluation
  221.           Program (TPEP) to grade the security offered by a product is
  222.           the Trusted Computer System Evaluation Criteria (TCSEC), dated
  223.           1985 (see Section II, Question 2)
  224.  
  225.   2. What is the TCSEC?
  226.  
  227.           The Trusted Computer System Evaluation Criteria (TCSEC) is a
  228.           collection of criteria used to grade or rate the security
  229.           offered by a computer system product.  The TCSEC is sometimes
  230.           referred to as "the Orange Book" because of its orange cover.
  231.           The current version is dated 1985 (DOD 5200.28-STD, Library No.
  232.           S225,711)  The TCSEC, its interpretations and guidelines all
  233.           have different color covers, and are sometimes known as the
  234.           "Rainbow Series" (see Section II, Question 11.) It is available at
  235.           <http://www.radium.ncsc.mil/tpep/library/rainbow/5200.28-STD.html>
  236.  
  237.   3. What is the Orange Book?
  238.  
  239.           See Section II, Question 2.
  240.  
  241.   4. What are interpretations?
  242.  
  243.           It is often the case that there are several ways to read a
  244.           given statement in the Trusted Computer System Evaluation
  245.           Criteria (TCSEC).  Interpretations are official statements
  246.           articulating which of a number of possible ways to read the
  247.           requirement are the acceptable ways for purposes of evaluation
  248.           by the TPEP.  Interpretations are developed by an group of
  249.           highly experienced product evaluators.  These interpretations
  250.           in proposed form are available for comment by all users of
  251.           Dockmaster (see Section 1, Question 6) including vendors with
  252.           products in evaluation.  After considering the comments and
  253.           revising the interpretation as appropriate (sometime through
  254.           several rounds of comments and revision) the interpretation is
  255.           accepted by the TPEP and officially announced.
  256.  
  257.   5. What is the Interpreted TCSEC (ITCSEC)?
  258.  
  259.           The Interpreted Trusted Computer System Evaluation Criteria
  260.           (ITCSEC) is a version of the TCSEC maintained by the Trusted
  261.           Product Evaluation Program (TPEP) that annotates the TCSEC
  262.           requirements with all current interpretations.  It is available
  263.           in postscript from
  264.           <http://www.radium.ncsc.mil/tpep/library/tpep/ITCSEC.ps>.
  265.  
  266.   6. What is the ITSEC (as opposed to the ITCSEC)?
  267.  
  268.           The Information Technology Security Evaluation Criteria (ITSEC)
  269.           is a European-developed criteria filling a role roughly
  270.           equivalent to the TCSEC.  While the ITSEC and TCSEC have many
  271.           similar requirements, there are some important distinctions.
  272.           The ITSEC places increased emphasis on integrity and
  273.           availability, and attempts to provide a uniform approach to the
  274.           evaluation of both products and systems.  The ITSEC also
  275.           introduces a distinction between doing the right job
  276.           (effectiveness) and doing the job right (correctness).  In so
  277.           doing, the ITSEC allows less restricted collections of
  278.           requirements for a system at the expense of more complex and
  279.           less comparable ratings and the need for effectiveness analysis
  280.           of the features claimed for the evaluation.  The question of
  281.           whether the ITSEC or TCSEC is the better approach is the
  282.           subject of sometimes intense debate.  The ITSEC is available in
  283.           postscript at
  284.           <http://www.radium.ncsc.mil/tpep/library/non-US/ITSEC-1.2.html>.
  285.  
  286.           On 21 August 1995, The National Institute of Standards and
  287.           Technology (NIST) released a draft National Computer Systems
  288.           Laboratoty (NCSL) Bulletin.  This draft bulletin adresses the
  289.           relationship of low assurance products evaluated under the
  290.           TCSEC, ITSEC, and CTCPEC.  In the case of the ITSEC, it is
  291.           recommended that if an appropriate C2 rated product is not
  292.           available, that ITSEC rated FC2/E2 products be used.
  293.  
  294.   7. What is the CTCPEC?
  295.  
  296.           The Canadian Trusted Computer Product Evaluation Criteria is
  297.           the Canadian equivalent of the TCSEC.  It is somewhat more
  298.           flexible than the TCSEC (along the lines of the ITSEC) while
  299.           maintaining fairly close compatibility with individual TCSEC
  300.           requirements.  The CTCPEC is available at
  301.           <http://www.cse.dnd.ca/Services/Criteria/English/Criteria.html>.
  302.  
  303.           On 21 August 1995, The National Institute of Standards and
  304.           Technology (NIST) released a draft National Computer Systems
  305.           Laboratoty (NCSL) Bulletin.  This draft bulletin adresses the
  306.           relationship of low assurance products evaluated under the
  307.           TCSEC, ITSEC, and CTCPEC.  In the case of the CTCPEC, it is
  308.           recommended that if an appropriate C2 rated product is not
  309.           available, that CTCPEC products rated with a C2 functionality
  310.           profile and T1 assurance be used.
  311.  
  312.   8. What is the Common Criteria?
  313.  
  314.           The Common Criteria (CC) occasionally (and somewhat
  315.           incorrectly) referred to as the Harmonized Criteria, is a
  316.           multinational effort to write a successor to the TCSEC and
  317.           ITSEC that combines the best aspects of both.  An initial
  318.           version (V 1.0) was released in January of 1996.  The CC has
  319.           a structure closer to the ITSEC than the TCSEC and includes
  320.           the concept of a "profile" to collect requirements into easily
  321.           specified and compared sets.  The TPEP is actively working to
  322.           develop profiles and an evaluation process for the CC.  We
  323.           anticipate beginning several trial CC evaluations late in
  324.           calendar year 1996. It is available in postscript from
  325.           <http://www.radium.ncsc.mil/tpep/library/ccitse/>
  326.  
  327.   9. What is the TNI?
  328.  
  329.           The Trusted Network Interpretation (TNI) of the TCSEC, also
  330.           referred to as "The Red Book," is a restating of the
  331.           requirements of the TCSEC in a network context.  Evaluations of
  332.           the type of systems (sometimes called distributed or
  333.           homogeneous) described by Part I are often evaluated directly
  334.           against the TCSEC without reference to the TNI.  TNI component
  335.           evaluations are evaluations performed against Appendix A of the
  336.           TNI.  (see Section III, Question 5)  It is available in at
  337.           <http://www.radium.ncsc.mil/tpep/library/rainbow/NCSC-TG-005.html>.
  338.  
  339.   10. What is the TDI?
  340.  
  341.           The Trusted Database Interpretation (TDI) of the TCSEC is
  342.           similar to the Trusted Network Interpretation (TNI) in that it
  343.           decomposes a system into independently evaluatable components.
  344.           It differs from the TNI in that the paradigm for this
  345.           decomposition is the evaluation of an application (e.g.,
  346.           database) running on an already evaluated system.  The Trusted
  347.           Product Evaluation Program (TPEP) has to date only evaluated
  348.           databases using this interpretation.  In principle arbitrary
  349.           trusted applications could be evaluated.  It is available at
  350.           <http://www.radium.ncsc.mil/tpep/library/rainbow/NCSC-TG-021.html>.
  351.  
  352.  11. What is the Rainbow Series?
  353.  
  354.           The "Rainbow Series" is the name given to the collection of
  355.           interpretation documents (e.g., TNI and TDI) and guidance
  356.           documents (e.g., Guide to understanding MAC, Password
  357.           Guidelines) published by the National Computer Security Center
  358.           (NCSC).  Each document has a different color cover, thus the
  359.           name "Rainbow Series."  The guidelines of the rainbow series,
  360.           are designed to expand on, and clarify, the requirements in the
  361.           Trusted Computer System Evaluation Criteria (TCSEC).  They are,
  362.           however, only guidance.  The words of the requirements and
  363.           interpretations are used as the metric for evaluation, not the
  364.           guidelines.  A single copy of every rainbow series
  365.           document is available without charge to U.S. addresses
  366.           by writing to:
  367.  
  368.               INFOSEC AWARENESS, ATTN: Y13/IAOC
  369.               DEPARTMENT OF DEFENSE
  370.               9800 SAVAGE ROAD
  371.               FT MEADE MD 20755-6000
  372.  
  373.           or by calling (410) 766-8729.  Additional copies may be
  374.           obtained from the Government Printing Office.  The Trusted
  375.           Computer System Evaluation Criteria (TCSEC) and most of the
  376.           other rainbow series documents are available at
  377.           <http://www.radium.ncsc.mil/tpep/library/rainbow/>.
  378.  
  379.  12. What are Process Action Team (PAT) Guidance Working Group (PGWG)
  380.      documents?
  381.  
  382.           The PGWG (often pronounced pig-wig) documents are also known
  383.           as the Form and Content documents.  These documents are
  384.           published directly by the Trusted Product Evaluation Program
  385.           (TPEP) and are designed to provide guidance to vendors
  386.           submitting products for evaluation.  This guidance is not
  387.           security or requirements guidance in the Rainbow Series style.
  388.           Rather, these documents provide rules used by the TPEP in
  389.           accepting products into evaluation to ensure that the
  390.           information provided to the evaluation team is in a state that
  391.           is most conducive to a expeditious and trouble-free
  392.           evaluation.  The document discussing design documentation is
  393.           available in postscript at
  394.           <http://www.radium.ncsc.mil/tpep/library/process_documents/PATdesign.ps>.
  395.           The document discussing test documentation is available in
  396.           postscript from
  397.           <http://www.radium.ncsc.mil/tpep/library/process_documents/PATtest.ps>.
  398.  
  399.  13. Is there a criteria for commercial (as opposed to military) systems?
  400.  
  401.           The Trusted Product Evaluation Program (TPEP) is prohibited by
  402.           the Computer Security Act of 1987 from attempting to directly
  403.           address the needs of commercial systems.  The TPEP does not
  404.           subscribe, however, to the often loudly espoused belief that
  405.           the requirements of military systems are entirely divorced from
  406.           the requirements of commercial systems.  It seems reasonable to
  407.           believe that commercial computer system users require many of
  408.           the same basic features of military systems: identification and
  409.           authentication of the users requesting information or service
  410.           from the system; ability to audit the actions of users; and
  411.           control of access to information, both at the discretion of the
  412.           information owner and by corporate policy.  Because the TCSEC
  413.           couched its requirements in terms of DoD classifications, many
  414.           people have not thought about applying them to similar needs
  415.           for mandatory controls on protected information pertaining to
  416.           product development, marketing, and personnel decisions.  It is
  417.           one of the aims of the Common Criteria to provide criteria that
  418.           use more general terminology.
  419.  
  420.  14. What is the Federal Criteria?
  421.  
  422.           The Federal Criteria was an attempt to develop a criteria to
  423.           replace the Trusted Computer System Evaluation Criteria
  424.           (TCSEC).  A draft version was released for public comment in
  425.           December 1992.  However, this effort was supplanted by the
  426.           Common Criteria effort (see Section II, Question 8), and the
  427.           Federal Criteria never moved beyond the draft stage (although
  428.           many of its ideas are retained in the Common Criteria).  There
  429.           is no FINAL Federal Criteria; the draft should not be treated
  430.           as a final criteria document.  The draft of the Federal
  431.           Criteria is available at <http://hightop.nrl.navy.mil/rainbow.html>.
  432.  
  433.  15. What are the CMWREQs and the CMWEC?
  434.  
  435.           The criteria used by the Defense Intelligence Agency (DIA) to
  436.           rate a product as a Compartmented Mode Workstation (CMW) is the
  437.           Compartmented Mode Workstation Evaluation Criteria (CMWEC),
  438.           which superseded the CMW Requirements (CMWREQs) in 1991. This
  439.           criteria defines a minimum level of assurance equivalent to the
  440.           B1 level of the TCSEC (see Section III, Questions 2-4).  It
  441.           also defines a minimum set of functionality and usability
  442.           features outside the scope of the TCSEC (e.g. a graphical user
  443.           interface via a window system is required along with the
  444.           capability to cut and paste between windows).  Neither set of
  445.           requirements are currently used by the Trusted Product Evaluation
  446.           Program (TPEP) although products that are designed to have these
  447.           features may be evaluated as B1 or higher products.
  448.  
  449.  
  450. ----------
  451.  
  452. Subject: Section III: Criteria Concepts
  453.  
  454.   1. What are security features?
  455.  
  456.           A security feature is a specific implementable function in a
  457.           system which supports some part of the system's security
  458.           policy.  Examples of security features would be access control,
  459.           trusted path, and audit.  The Trusted Computer System
  460.           Evaluation Criteria (TCSEC) (see Section II, Question 1)
  461.           ratings are not designed to express the rating of individual
  462.           features, as are some other criteria.  Rather, each class
  463.           specifies a set of security features that a system must
  464.           implement in order to be rated at that class.  However, many
  465.           evaluations are given "extra credit" in the evaluation results
  466.           for successful implementations of features that are required
  467.           only in a higher overall rating in the criteria.
  468.  
  469.   2. What is assurance?
  470.  
  471.           In the context of the Trusted Computer System Evaluation
  472.           Criteria (TCSEC), assurance coincides with correctness
  473.           assurance.  It is a measure of confidence that the security
  474.           features and architecture of a computer system accurately
  475.           mediate and enforce the system security policy.  The TCSEC's
  476.           assurance-related requirements constrain development methods
  477.           (e.g., configuration management) and software engineering
  478.           practices (e.g., modular code).  Higher evaluation classes
  479.           contain more assurance-promoting requirements and give more
  480.           confidence in correctness.
  481.  
  482.   3. What is a division?
  483.  
  484.           A division is a set of classes (see Question 5) from the
  485.           Trusted Computer System Evaluation Criteria (TCSEC) (see
  486.           Section II, Question 1).  There are 4 divisions A, B, C, and D
  487.           in decreasing order of assurance and features.  Thus, a system
  488.           evaluated at a class in division B has more security features
  489.           and/or a higher confidence that the features work as intended
  490.           than a system evaluated at a class in division C.  Although the
  491.           Computer Security Subsystem Interpretation (CSSI) of the TCSEC
  492.           specifies criteria for various D ratings, these are not
  493.           reflected in the TCSEC itself, which has no requirements for D
  494.           division systems.  An unrated system is, by default, division
  495.           D.
  496.  
  497.   4. What is a class?
  498.  
  499.           A class is the specific collection of requirements in the
  500.           Trusted Computer System Evaluation Criteria (TCSEC) to which an
  501.           evaluated system conforms.  There are seven classes in the
  502.           TCSEC A1, B3, B2, B1, C2, C1, and D, in decreasing order of
  503.           features and assurances.  Thus, a system evaluated at class B3
  504.           has more security features and/or greater confidence that the
  505.           security features work as intended than a system evaluated at
  506.           class B1.  The requirements for a higher class are always a
  507.           superset of the lower class.  Thus a B2 system meets every C2
  508.           functional requirement and has a higher level of assurance.
  509.           
  510.   5. What is a network component?
  511.  
  512.           A "network component" is the target of evaluation for a Trusted
  513.           Network Interpretation (TNI) evaluation (see Section II,
  514.           Question 9) done against appendix A of the TNI.  These
  515.           "network component" evaluations allocate basic requirements
  516.           (Mandatory Access Control (MAC); Discretionary Access Control
  517.           (DAC); Audit; and Identification and Authentication) to
  518.           components of a "network system".  Each component may be
  519.           evaluated in isolation.  The TPEP does evaluate degenerate TNI
  520.           components that independently meet all basic requirements (but
  521.           nevertheless have an interface to other, perhaps identical
  522.           components), but has not evaluated any degenerate TNI component
  523.           that met none of the basic requirements (relying totally on
  524.           other components for the security features).  The TPEP is
  525.           currently developing a more integrated approach to the evaluation
  526.           of TNI components.  The preliminary report of the changes
  527.           envisioned are available in postscript at
  528.           <http://www.radium.ncsc.mil/tpep/library/process_documents/cwg-draft.ps>.
  529.  
  530.   6. What is a Network Security Architecture Design (NSAD) document?
  531.  
  532.           The documentation for a network component (see Section III,
  533.           Question 5) must include a Network Security Architecture Design
  534.           (NSAD) document which describes the security expectations by this
  535.           component about other components.  Each component evaluation
  536.           proceeds under the assumption that the expectations of the NSAD
  537.           are met by the other components.  A collection of components
  538.           designed around the same architecture should interoperate
  539.           securely.
  540.   
  541.   7. How do I interpret a rating?
  542.  
  543.           A product evaluated by the Trusted Product Evaluation Program
  544.           (TPEP) will have one of several styles of ratings.  A product
  545.           evaluated against the Trusted Computer System Evaluation
  546.           Criteria (TCSEC) will have one of the seven class ratings: A1,
  547.           B3, B2, B1, C2, C1, or D (see Section III, Question 4.)  In
  548.           addition a TCSEC evaluated product may be evaluated to have met
  549.           requirements above it's class.  These would be specified
  550.           additionally such as "meets the B1 requirements and the B2
  551.           Trusted Path requirement."  It is very important to note that,
  552.           for example, a B1 evaluated system with B2 trusted path,
  553.           provides significantly less confidence that trusted path is
  554.           implemented correctly than a B2 evaluated system.  That is to
  555.           say that the assurance is always that of the system's rated
  556.           class.
  557.  
  558.           Some systems have been evaluated against the Compartmented Mode
  559.           Workstation (CMW) criteria.  The CMW criteria levies minimum
  560.           features and assurances from the TCSEC as well as additional
  561.           usability criteria (e.g., specifying that the window system must
  562.           manipulate windows at multiple levels in certain ways.)  The
  563.           TPEP has treated these systems as standard TCSEC evaluations
  564.           with additional requirements.  From a security perspective the
  565.           CMW requirements do not preclude a B2 or higher CMW, however,
  566.           to this point all CMW evaluated systems are B1 evaluated with
  567.           additional TCSEC features above the evaluated class.
  568.  
  569.           Another form of rating is a Trusted Network Interpretation
  570.           (TNI) component (see Section III, Question 5) rating.  TNI
  571.           component ratings specify the evaluated class as well as which
  572.           of the four basic security services the evaluated component
  573.           provides.  Thus, a B2-MD component is one that provides both
  574.           Mandatory Access Control (MAC) and Discretionary Access Control
  575.           (DAC).  A B1-MDIA component is one that provides MAC, DAC,
  576.           Identification and Authentication, and Audit.  Since a B1-MDIA
  577.           component meets all the Trusted Computer System Evaluation
  578.           Criteria (TCSEC) requirements for B1, it is likely that this
  579.           component is also evaluated as a B1 system if it can be used in
  580.           a non-network configuration.
  581.  
  582.           A third form of rating is a Trusted Database Interpretation
  583.           (TDI) rating.  This rating is the same as a TCSEC rating except
  584.           that the rating applies to the composite of the evaluated
  585.           application and each of the listed underlying systems.
  586.  
  587.           Finally, products evaluated against the Computer Security
  588.           Subsystem Interpretation (CSSI) of the TCSEC have been given
  589.           variations of D division (see Question 4) ratings.  These
  590.           appear for example as I&A/D2, Audit/D1, DAC/D3, and OR/D.
  591.           These products all have very low assurance regardless of the
  592.           features.
  593.  
  594.   8. The TCSEC is 10 years old, doesn't that mean it's outdated?
  595.  
  596.           The Trusted Computer System Evaluation Criteria (TCSEC) was
  597.           published in 1985.  While some of the details need
  598.           interpretation for current systems, in general the requirements
  599.           of the TCSEC are at a level of abstraction that has not
  600.           experienced great change.  For the areas where it is becoming
  601.           difficult to use the TCSEC, the Common Criteria (see Section
  602.           II, Question 8) should provide more relevant criteria.
  603.  
  604.   9. How do the TCSEC and its interpretations apply to routers and
  605.      firewalls?
  606.  
  607.           The Trusted Network Interpretation (TNI) of the TCSEC has been
  608.           used to evaluate these types of products.  While there is some
  609.           value to those evaluations it is true that many of the specific
  610.           mechanisms of these products on which one might wish to have an
  611.           evaluator comment are not recognized by the TNI.  It is hoped
  612.           that the Common Criteria (see Section II, Question 8) will be
  613.           able to address these products more directly with, for example,
  614.           an appropriate profile.
  615.  
  616.  10. Does a trusted system require custom hardware?
  617.  
  618.           A system does not require custom hardware to be successfully
  619.           evaluated against the Trusted Computer System Evaluation
  620.           Criteria (TCSEC).  However, an evaluation does consider the
  621.           security of the system hardware as well as software.  For every
  622.           evaluated product, there is an evaluated configuration.  The
  623.           evaluated configuration lists the specific hardware and
  624.           software evaluated.  A given evaluation may require hardware
  625.           with certain security features used by the software, and the
  626.           software may require certain optional features be enabled or
  627.           disabled.  The Final Evaluation Report (FER) (see Section V,
  628.           Question 7) lists the evaluated hardware and software.  The
  629.           Trusted Facility Manual (TFM) for the product will give
  630.           detailed guidance on configuring the hardware and software
  631.           securely.
  632.  
  633.  11. What are the requirements for a D/C1/C2/B1/B2/B3/A1 system?
  634.  
  635.           The Interpreted Trusted Computer System Evaluation Criteria
  636.           (ITCSEC) available in postscript at
  637.           <http://www.radium.ncsc.mil/tpep/library/tcsec/ITCSEC.ps>
  638.           contains the definitive set of requirements for each TCSEC
  639.           class.  In Summary:
  640.  
  641.             Class D: Minimal Protection
  642.  
  643.           Class D is reserved for those systems that have been evaluated
  644.           but that fail to meet the requirements for a higher evaluation
  645.           class.
  646.  
  647.             Class C1: Discretionary Security Protection
  648.  
  649.           The Trusted Computing Base (TCB) of a class C1 system
  650.           nominally satisfies the discretionary security requirements by
  651.           providing separation of users and data.  It incorporates some
  652.           form of credible controls capable of enforcing access
  653.           limitations on an individual basis, i.e., ostensibly suitable
  654.           for allowing users to be able to protect project or private
  655.           information and to keep other users from accidentally reading
  656.           or destroying their data.  The class C1 environment is
  657.           expected to be one of cooperating users processing data at the
  658.           same level of sensitivity.
  659.  
  660.             Class C2: Controlled Access Protection
  661.  
  662.           Systems in this class enforce a more finely grained
  663.           discretionary access control than C1 systems, making users
  664.           individually accountable for their actions through login
  665.           procedures, auditing of security-relevant events, and resource
  666.           isolation.
  667.  
  668.             Class B1: Labeled Security Protection
  669.  
  670.           Class B1 systems require all the features required for class
  671.           C2.  In addition, an informal statement of the security policy
  672.           model, data labeling (e.g., secret or proprietary), and
  673.           mandatory access control over named subjects and objects must
  674.           be present.  The capability must exist for accurately labeling
  675.           exported information.
  676.  
  677.             Class B2: Structured Protection
  678.  
  679.           In class B2 systems, the TCB is based on a clearly defined and
  680.           documented formal security policy model that requires the
  681.           discretionary and mandatory access control enforcement found
  682.           in class B1 systems be extended to all subjects and objects in
  683.           the automated data processing system.  In addition, covert
  684.           channels are addressed.  The TCB must be carefully structured
  685.           into protection-critical and non- protection-critical
  686.           elements.  The TCB interface is well-defined and the TCB
  687.           design and implementation enable it to be subjected to more
  688.           thorough testing and more complete review.  Authentication
  689.           mechanisms are strengthened, trusted facility management is
  690.           provided in the form of support for system administrator and
  691.           operator functions, and stringent configuration management
  692.           controls are imposed.  The system is relatively resistant to
  693.           penetration.
  694.  
  695.             Class B3: Security Domains
  696.  
  697.           The class B3 TCB must satisfy the reference monitor
  698.           requirements that it mediate all accesses of subjects to
  699.           objects, be tamperproof, and be small enough to be subjected
  700.           to analysis and tests.  To this end, the TCB is structured to
  701.           exclude code not essential to security policy enforcement,
  702.           with significant system engineering during TCB design and
  703.           implementation directed toward minimizing its complexity.  A
  704.           security administrator is supported, audit mechanisms are
  705.           expanded to signal security-relevant events, and system
  706.           recovery procedures are required.  The system is highly
  707.           resistant to penetration.
  708.  
  709.             Class A1: Verified Design
  710.  
  711.           Systems in class A1 are functionally equivalent to those in
  712.           class B3 in that no additional architectural features or
  713.           policy requirements are added.  The distinguishing feature of
  714.           systems in this class is the analysis derived from formal
  715.           design specification and verification techniques and the
  716.           resulting high degree of assurance that the TCB is correctly
  717.           implemented.  This assurance is developmental in nature,
  718.           starting with a formal model of the security policy and a
  719.           formal top-level specification (FTLS) of the design.  An FTLS
  720.           is a top level specification of the system written in a
  721.           formal mathematical language to allow theorems (showing the
  722.           coorespondence of the system specification to its formal
  723.           requirements) to be hypothesized and formally proven.  In
  724.           keeping with the extensive design and development analysis of
  725.           the TCB required of systems in class A1, more stringent
  726.           configuration management is required and procedures are
  727.           established for securely distributing the system to sites.  A
  728.           system security administrator is supported.
  729.  
  730. ----------
  731.  
  732. Subject: Section IV: Evaluations
  733.  
  734.   1. How do I get my product evaluated?
  735.  
  736.           Product developers who have a product that they wish to have
  737.           evaluated need to request a proposal package from:
  738.  
  739.               V24, TRUSTED PRODUCT EVALUATION PROGRAM
  740.               NATIONAL SECURITY AGENCY
  741.               9800 SAVAGE ROAD STE 6740
  742.               FT MEADE MD 20755-6740
  743.  
  744.           The ultimate proposal for product evaluation will include
  745.           technical and marketing details for the product.  Because the
  746.           Trusted Product Evaluation Program (TPEP) is legislatively
  747.           prohibited from directly evaluating products that are not
  748.           intended to protect classified information, the proposal
  749.           marketing information should include details about the market
  750.           potential within the United States Department of Defense and
  751.           intelligence communities.  Additionally, the TPEP in general
  752.           does not accept products targeting the C1 and below evaluation
  753.           classes, as these are usually inappropriate for processing any
  754.           classified information.  TPEP currently accepts for evaluation
  755.           at the C2 and higher levels, networked systems which meet the
  756.           market and technical criteria.  The product technical details
  757.           will include descriptions of the product's documentation and how
  758.           that documentation's structure compares to that required by the
  759.           PGWG documents (see Section II, Question 11).  Finally, the
  760.           proposed configuration of the product should be a configuration
  761.           likely to be used by the described potential market.
  762.  
  763.   2. What is the evaluation process?
  764.  
  765.           The evaluation process is described in detail at
  766.           <http://www.radium.ncsc.mil/tpep/process/procedures.html> In
  767.           general terms, a successful evaluation proceeds through the
  768.           following stages:
  769.  
  770.             Proposal Review
  771.  
  772.           A product proposal, submitted by a vendor for consideration of
  773.           evaluation by TPEP is reviewed for two purposes.  The first is
  774.           to determine the potential market benefits of accepting the
  775.           product for evaluation (i.e., the DoD customer base).  The
  776.           market analysis is performed based upon both the vendor's proposal
  777.           and upon TPEP customer input, which is actively solicited on a
  778.           regular basis.  The second part of the proposal review is to
  779.           determine, at a very preliminary level, if the product appears
  780.           to provide feasible security mechanisms such that the requirements
  781.           of the TCSEC can be satisfied.  Once the review of the product
  782.           proposal is completed, the vendor is notified in writing of the
  783.           acceptance or rejection of the product for evaluation.
  784.  
  785.             Technical Assessment
  786.  
  787.           Products whose proposals were recommended as "accept" are
  788.           considered candidates for evaluation and proceed to the next
  789.           step in pre-evaluation, the Technical Assessment (TA), where
  790.           a vendor must demonstrate that the product design and the
  791.           associated evaluation evidence are complete.  A TA is often
  792.           the first examination of the product and the evidence by a
  793.           technical evaluation team.  Vendors may have excellent and
  794.           complete documentation, indicating a readiness to undergo an
  795.           Intensive Preliminary Technical Review (IPTR) which is the
  796.           gateway to evaluation when successfully completed.  Advice may
  797.           be recommended based on readiness.
  798.  
  799.             Advice
  800.  
  801.           The purpose of advice is to aid the vendor in producing a product
  802.           and supporting documentation that is capable of being evaluated
  803.           against the TCSEC and its interpretations.  Advice can be provided
  804.           by contractors outside of TPEP or TPEP evaluators may be assigned
  805.           to advise the vendor.  TPEP-provided advice begins after a vendor
  806.           has submitted a proposal and a technical assessment has been
  807.           performed that deemed the product suitable for evaluation, but
  808.           not yet ready for an IPTR.
  809.  
  810.             Intensive Preliminary Technical Review (IPTR)
  811.  
  812.           The IPTR is an independent assessment by the TPEP evaluators to
  813.           determine a product's readiness for evaluation.  An IPTR lasts
  814.           for approximately 7-10 days and is performed by a team of
  815.           approximately 5 TPEP evaluators.  During the IPTR, which is
  816.           usually held at the vendor's site, the team becomes familiar with
  817.           the product (through vendor presentations); reviews documentation,
  818.           test plans, and procedures; and documents its findings in a report.
  819.           The IPTR report is provided to the vendor and TPEP management and
  820.           documents the team's assessment of the product's readiness for
  821.           evaluation.  Completion of a successful IPTR results in the
  822.           product moving into evaluation (pending availability of TPEP
  823.           evaluation resources).
  824.  
  825.             Evaluation
  826.  
  827.           Evaluation is the comprehensive technical analysis of a product's
  828.           security functionality.  At the beginning of evaluation, the
  829.           vendor provides the evaluation team with system level, developer-
  830.           oriented training for the product.  Training is followed by
  831.           analysis of the product design, focusing specifically on security
  832.           features.  This analysis includes both hardware and software
  833.           components of the product and associated documentation.  Testing
  834.           of the product involves running the vendor's test suite, as well
  835.           as tests formulated by the evaluation team.  Upon successful
  836.           completion of testing and rigorous technical reviews by senior
  837.           members of the evaluation community, the product is awarded an
  838.           Evaluated Products List (EPL) entry.
  839.  
  840.             Rating Maintenance Phase (RAMP)
  841.  
  842.           RAMP provides a mechanism for a vendor to maintain the TCSEC
  843.           rating of a product throughout its life cycle.  During RAMP,
  844.           the vendor works with the TPEP assigned Technical Point of
  845.           Contact (TPOC) to analyze the security impact of proposed changes
  846.           to the evaluated product.  The Vendor Security Analyst (VSA)
  847.           actually performs the security analysis of the product changes
  848.           as they occur.  The changes and associated analysis results are
  849.           presented to a TPEP Technical Review Board (TRB) which recommends
  850.           approval (or disapproval) of the rating for the "new" product.
  851.  
  852.   3. How long does an evaluation take?
  853.  
  854.           The length of time a developer needs to prepare for an
  855.           Intensive Preliminary Technical Review (IPTR) varies
  856.           considerably.  The IPTR is a short (one to two week) assessment
  857.           of the state of the product documentation and testing.  A
  858.           successfull IPTR ensures that the materials needed for
  859.           evaluation are complete and usable.  Currently, we expect
  860.           successful evaluations at the C2/B1 class to take approximately
  861.           one year to complete from successful IPTR to final technical
  862.           review.  IPTRs should ideally take place approximately eight
  863.           months before product release for a typical C2/B1 product, and
  864.           even earlier in the product cycle for products targeted at B2,
  865.           B3 or A1.  We continue to explore ways to reduce the time
  866.           required.  Higher class evaluations take longer, although this
  867.           is somewhat mitigated by the fact that the TPEP is usually
  868.           involved earlier in the design process for systems at
  869.           relatively higher classes.  Problems during evaluation, changes
  870.           in the configuration the vendor is planning to market, and
  871.           system complexity can all add to the length of evaluation.
  872.           Vendors participating in the RAMP (Rating Maintenance) process
  873.           can perform analysis of changes to an already evaluated system
  874.           to maintain the evaluated rating on subsequent versions and
  875.           configurations.  The length of time to obtain a RAMP rating is
  876.           largely dependent on the vendor and on the nature and
  877.           complexity of the change.  However, it is reasonable to expect
  878.           this RAMP to take far less time than an evaluation.
  879.  
  880.   4. How much does an evaluation cost?
  881.  
  882.           The Trusted Product Evaluation Program (TPEP) does not charge
  883.           for evaluations.  It may be a significant expense for a product
  884.           developer to prepare for and support evaluation.  There are
  885.           often travel expenses for staff, training costs for the
  886.           evaluation team, and the cost of having development personnel
  887.           take time to respond to the evaluation team's questions.  In
  888.           addition, if the product did not previously meet the
  889.           requirements for a given class, the cost of improving the
  890.           product (i.e., doing the testing, analysis and documentation)
  891.           can be high.  Ultimately, this should result in an improved
  892.           product that will be recognized as superior to competitors.
  893.  
  894.   5. How do I find out about the evaluation process?
  895.  
  896.           For an abstract view of the evaluation process you can read
  897.           this list of Frequently Answered Questions (FAQ)!  For a more
  898.           detailed view appropriate to those who wish to participate in
  899.           the process, the process is described in some detail at
  900.           <http://www.radium.ncsc.mil/tpep/process/procedures.html>.
  901.  
  902.   6. Who actually performs the evaluations?
  903.  
  904.           Trusted product evaluators come from the Trusted Product
  905.           Evaluation Program (TPEP) organization within the National
  906.           Security Agency (NSA) as well as from a small group of federal
  907.           contract research organizations.  Some evaluations have also
  908.           benefitted from the participation of evaluators from the
  909.           security evaluation organizations of other cooperating
  910.           governments.  In cooperation with the National Institute of
  911.           Standards and Technology (NIST), a program is being developed to
  912.           evaluate products in the lower Trusted Computer System
  913.           Evaluation Criteria (TCSEC) classes (i.e., C2/B1) using
  914.           approved commercial evaluation facilities.  However, many
  915.           details remain to be finalized for that program.
  916.  
  917.   7. What information is released about an evaluated product?
  918.  
  919.           As we begin working with a product, the vendor and target
  920.           rating are made available.  When that product is accepted into
  921.           evaluation, information such as the vendor, target rating, and
  922.           target completion date are announced in a product announcement
  923.           on the Evaluated Products List (EPL) (see Section V, Question
  924.           6).  When the evaluation is completed the general evaluated
  925.           product configuration, general product information, and rating
  926.           are announced in an entry on the EPL.  In addition at the
  927.           completion of evaluation a report is published (see Section V,
  928.           Question 7).  This report contains the analysis of the
  929.           evaluation team, a complete description of the evaluated
  930.           product, and often comments about the usability of the product
  931.           in its evaluated configuration by the evaluation team.  Recent
  932.           EPL entries and a few Final Evaluation Reports are available at
  933.           <http://www.radium.ncsc.mil/tpep/epl/>.
  934.  
  935.  
  936.   8. What is RAMP?
  937.  
  938.           The Rating Maintenance Phase (RAMP) Program was established to
  939.           provide a mechanism to extend the previous rating to a new
  940.           version of a previously evaluated computer system product.
  941.           RAMP seeks to reduce evaluation time and effort required to
  942.           maintain a rating by using the personnel involved in the
  943.           maintenance of the product to manage the change process and
  944.           perform Security Analysis.  Thus, the burden of proof for RAMP
  945.           efforts lies with those responsible for system maintenance
  946.           (i.e., the vendor) instead of with an evaluation team.
  947.  
  948. ----------
  949.  
  950. Subject: Section V: Evaluated Products
  951.  
  952.   1. Should I buy an evaluated product?
  953.  
  954.           An evaluated product has the benefit of providing an
  955.           independent assessment that the product meets the criteria for
  956.           the rating it achieved.  When considering a specific
  957.           installation the value of the data and the threat to that data
  958.           both need to be considered.  These are often related, in that
  959.           more valuable data has a higher threat.  If some of the threats
  960.           to the data can be countered by the features or assurance of a
  961.           trusted product, then it is certainly worthwhile to consider
  962.           that in your purchase decision.  All other things being equal
  963.           (which is rarely the case) the independent assessment of an
  964.           evaluated product adds value.
  965.  
  966.   2. Does NSA buy/use evaluated products?
  967.  
  968.           NSA endevours to be an exemplary customer of the products it
  969.           recommends for use by its customers and expects NSA-evaluated
  970.           products to comprise the foundation of its own secure information
  971.           systems architecture and is developing policy towards that end.
  972.  
  973.   3. How do I know if a product is evaluated?
  974.  
  975.           The simplest way to find out if a product is not evaluated is
  976.           to ask the product vendor.  If the vendor has an evaluated
  977.           product, it is a pretty good bet that the company marketing
  978.           people are aware of it.  Many products that have NOT been
  979.           evaluated have names containing a rating or have declared
  980.           themselves as "designed to meet" a specific rating.  These products
  981.           have not withstood the same scrutiny as products listed on the EPL.
  982.  
  983.           If a vendor claims to have an evaluated product, you should
  984.           independently verify the details of the evaluation (e.g.,
  985.           product version, configuration, rating.) All evaluated products
  986.           are placed on the Evaluated Products List (EPL) (see Section V,
  987.           Question 6).  That is the first place to look.  The EPL entries
  988.           that have been awarded within the last three years are available
  989.           at <http://www.radium.ncsc.mil/tpep/epl/>.  To verify a specific
  990.           detail (e.g., the rating) of an evaluation, you may call the Trusted
  991.           Product Evaluation Program (TPEP) directly at (410) 859-4458 This
  992.           will often result in less complete information since generally we
  993.           don't read entire EPL entries over the phone.
  994.  
  995.           For the most complete information about a specific evaluated
  996.           product, you should request a copy of the evaluation report.
  997.           (see Section V, Question 7)  Unfortunately, the publication of
  998.           the report sometimes postdates the evaluation significantly.
  999.           An increasing number of final evaluation reports are available
  1000.           via links from the product's electronic EPL entry or from
  1001.           <http://www.radium.ncsc.mil/tpep/library/fers/> by report number.
  1002.  
  1003.   4. What does it mean for a product to be "in evaluation"?
  1004.  
  1005.           In the past it has been the case that Trusted Product
  1006.           Evaluation Program (TPEP) evaluations where conducted over
  1007.           longer periods of time and included time for a developer to
  1008.           work out problems with their documentation and testing that a
  1009.           current Intensive Preliminary Architecture Review (IPTR) is
  1010.           designed to limit.  Currently a product is not announced to be
  1011.           in evaluation until it has successfully passed an IPTR.  Even
  1012.           so, a product may go through several releases, incorporate
  1013.           fixes during the course of evaluation, or even potentially drop
  1014.           out of evaluation or fail evaluation.  Because of this a
  1015.           product in evaluation is not equivalent to an evaluated
  1016.           product.  While it does show some intent to have an evaluated
  1017.           product, and a consideration of security criteria in the
  1018.           product development, it does not necessarily imply any security
  1019.           features or assurances.  Buyers of products in evaluation
  1020.           should consider what options will be available to them should
  1021.           the evaluated configuration differ significantly from the
  1022.           purchased configuration, or if the product does not ultimately
  1023.           complete evaluation.
  1024.           
  1025.   5. What does it mean for a product to be "compliant" with the TCSEC?
  1026.  
  1027.           If a product has been evaluated by the Trusted Product
  1028.           Evaluation Program (TPEP) to comply with the requirements of a
  1029.           rated class, then it means that an independent assessment
  1030.           showed the product to have the features and assurances of that
  1031.           class.  It does not mean that the product is impenetrable.  It
  1032.           is even possible that the independent assessment overlooked
  1033.           some failure to meet the criteria, although we expend a lot of
  1034.           energy attempting to prevent that.  A vendor claim to be
  1035.           "compliant" without an evaluation often doesn't mean very much
  1036.           since the vendor's interpretation of the requirement may not be
  1037.           the same as an independent assessor's would be.
  1038.  
  1039.   6. What and where is the Evaluated Products List (EPL)?
  1040.  
  1041.           The Evaluated Products List (EPL) officially is published
  1042.           quarterly in the INFOSEC Products and Services Catalog (as a
  1043.           chapter).  The INFOSEC Products and Services Catalog is
  1044.           available from the Government Printing Office.  The EPL is also
  1045.           maintained electronically on Dockmaster and updated as new
  1046.           products are announced. (see Section I, Question 7) There is no
  1047.           anonymous access to Dockmaster so this is available only to
  1048.           Dockmaster users.  EPL entries issued within the last three years
  1049.           are available at <http://www.radium.ncsc.mil/tpep/epl/>.
  1050.  
  1051.   7. How do I get a copy of an evaluation report?
  1052.  
  1053.           Single copies of evaluation reports are available without charge
  1054.           by writing:
  1055.           
  1056.               INFOSEC AWARENESS, ATTN: Y13/IAOC
  1057.               DEPARTMENT OF DEFENSE
  1058.               9800 SAVAGE ROAD
  1059.               FT MEADE MD 20755-6000
  1060.           
  1061.           Multiple copies are available from the Government Printing
  1062.           Office.  In either case you will need the report number
  1063.           (CSC-EPL-xx/xxx or CSC-FER-xx/xxx) which is given in the
  1064.           Evaluated Products List (EPL) entry for the product. (see
  1065.           Section V, Question 6)
  1066.           
  1067.   8. Is an evaluated product "hacker proof?"
  1068.   
  1069.           No product can be guaranteed to be "hacker proof" or
  1070.           "impenetrable."  An evaluated product has demonstrated certain
  1071.           features and assurances, as specified by the rating criteria.
  1072.           Those features and assurances counter certain threats.  Thus an
  1073.           evaluated product is usually vulnerable to fewer threats than
  1074.           an unevaluated product.  Products with higher ratings are
  1075.           vulnerable to fewer threats than products with low ratings.
  1076.           Vulnerabilities to threats that remain in products can often be
  1077.           addressed through other means.  No rating class used by the
  1078.           Trusted Product Evaluation Program (TPEP), for example,
  1079.           counters the threat of directly tampering with the hardware.
  1080.           That threat would need to be addressed physically or
  1081.           procedurally if it was realistic for the particular system
  1082.           environment.
  1083.  
  1084.           Finally, it seems many "hackers" today prefer to use "social
  1085.           engineering" to accomplish their goals.  As with other
  1086.           insider-related threats, education is necessary in preventing
  1087.           naive users from disclosing sensitive information.  However,
  1088.           technical measures can also help.  They can enforce the the
  1089.           principle of least privilege, check the reasonableness of
  1090.           administrative inputs, and provide timely on-line cautions.
  1091.  
  1092.   9. What is the rating of DOS?
  1093.  
  1094.           MS-DOS, PC-DOS, and DR-DOS have not been evaluated.  Without
  1095.           modification, it is apparent from the most cursory examination
  1096.           that they do not implement many of the features required by the
  1097.           C1 class of the Trusted Computer System Evaluation Criteria
  1098.           (TCSEC).  Several vendors support a DOS application interface
  1099.           in products designed to achieve higher class ratings.
  1100.  
  1101.  10. What is the rating of UNIX?
  1102.  
  1103.           There are a number of evaluated products conforming to one or
  1104.           another of the UNIX interface standards (see Section V,
  1105.           Question 3).  These products range from class C2 to class B3.
  1106.           In general, unevaluated UNIX products lack several features,
  1107.           including sufficient auditing, to achieve anything other than a
  1108.           D class rating without some modification.
  1109.  
  1110.  11. What should I do if evaluated Product X appears to fail a requirement?
  1111.  
  1112.           If an evaluated product does not seem to meet the requirements,
  1113.           the first thing to do is carefully look at the Final Evaluation
  1114.           Report (FER) and the product's Trusted Facility Manual (TFM).
  1115.           The product was evaluated with specific configuration options and
  1116.           on specific hardware.  These should be stated in the TFM and FER
  1117.           respectively.  If the evaluated configuration still seems to not
  1118.           meet some requirement for its rated class, then it is possible that
  1119.           there was an oversight during the evaluation.  You can send that
  1120.           information to tpep@dockmaster.ncsc.mil and we may investigate the
  1121.           issue.
  1122.  
  1123.  12. Why should I buy a B2/B3/A1 product over a C2/B1 product?
  1124.  
  1125.           While the features and assurances of each class increase, the
  1126.           increase is not linear.  B1 and below rated products provide a
  1127.           basic set of security features and an independent assesment that
  1128.           those features are implemented correctly.  At B2 and above there
  1129.           is significantly more effort and analysis both in development and
  1130.           in evaluation that the features are correctly implemented.  The
  1131.           additional development effort often translates into increased cost
  1132.           for the product.  For applications involving sensitive data, the
  1133.           added cost may be well worth the added protection.  
  1134.  
  1135.  13. Is there an approved program to declassify my hard drive?
  1136.  
  1137.           In summary, no; in general, overwriting may be sufficient to have
  1138.           media released for other use, but it must retain its original
  1139.           classification.
  1140.  
  1141.           You should contact your security officer or contracts manager for
  1142.           official guidance.  Often, your contract will determine how to
  1143.           declassify disks.  This is usually indirect, by referencing a
  1144.           DOD-STD or other document.  Be prepared to submit the disk drive
  1145.           (or at least the little metal thingy with the iron oxide) for total
  1146.           destruction.
  1147.  
  1148.           If you need to retrieve unclassified data that reside on a
  1149.           classified disk, there are often detailed procedures to accomplish
  1150.           this.
  1151.  
  1152.  
  1153.